Groks „Spicy“-Modus erstellt NSFW-Promi-Deepfakes von Frauen (aber nicht von Männern)

Diese Woche hat Elon Musk Grok Imagine, xAIs Bild- und Videogenerator für iOS, für Abonnenten von SuperGrok und Premium+ X offiziell vorgestellt. Die App ermöglicht es Nutzern im „Spicy“-Modus, nicht jugendfreie Inhalte zu erstellen. The Verge berichtete am Dienstag, dass Nutzer ganz einfach Oben-ohne-Videos von Taylor Swift erstellen können – ganz ohne Nachfrage. Doch nicht nur Swift sollte sich über Musks neues KI-generiertes Softporno-Tool Sorgen machen.
Gizmodo erstellte mit dem Grok-Spicy-Modus rund zwei Dutzend Videos von Politikern, Prominenten und Tech-Größen. Manche davon waren allerdings unscharf oder wurden mit der Meldung „Video moderiert“ zurückgesendet. Wenn Grok tatsächlich skandalöse Bilder erstellte, waren nur die mit Frauen wirklich nicht arbeitsplatztauglich. Videos von Männern hingegen sorgten nicht wirklich für Aufsehen.
X wurde in den letzten zwei Tagen mit KI-generierten Bildern nackter Frauen und Tipps für maximale Nacktheit überschwemmt. Doch Nutzer, die laut Musk zig Millionen Grok Imagine-Bilder erstellt haben, müssen sich nicht einmal besonders anstrengen, um Deepfakes nackter Prominenter zu erhalten. Gizmodo hat in den Beispielen, die wir in diesem Artikel anführen, nicht explizit nach Nacktheit gefragt, aber wir haben trotzdem jede Menge davon erhalten. Wir haben lediglich auf den „Spicy“-Button geklickt, eine von vier Optionen neben „Custom“, „Fun“ und „Normal“.
Gizmodo testete Grok Imagine und erstellte dafür nicht nur Videos von Taylor Swift, sondern auch von anderen prominenten Frauen wie Melania Trump und historischen Persönlichkeiten wie Martha Washington. Melania Trump ist eine lautstarke Befürworterin des Take It Down Act, der die Veröffentlichung nicht einvernehmlicher „intimer Bilder“, einschließlich Deepfakes, untersagt .
Grok hat außerdem ein nicht arbeitsplatztaugliches Video der verstorbenen feministischen Schriftstellerin Valerie Solanas erstellt, der Autorin des SCUM-Manifests von 1967. In fast allen Videos wurden die von uns getesteten Frauen beim Ablegen ihrer Kleidung gezeigt, sodass sie von der Hüfte aufwärts nackt waren. Das Video von Solanas war jedoch insofern einzigartig, als dass es sie tatsächlich völlig nackt zeigte.
Was passiert, wenn man versucht, scharfe Videos von Männern zu erstellen? Die KI lässt den Mann sein Hemd ausziehen, aber nichts ist skandalöser als das. Als Gizmodo herausfand, dass sie nur das Hemd eines Mannes ausziehen würde, ließen wir die KI ein Bild von Elon Musk ohne Hemd erstellen und sehen, was sie damit anstellen würde. Das Ergebnis war das extrem lächerliche (und arbeitsplatztaugliche) Video, das Sie unten sehen .
Versuche, Videos von Mark Zuckerberg, Jeff Bezos, Joaquin Phoenix und Charlie Chaplin sowie den Präsidenten Barack Obama, Bill Clinton und George Washington zu erstellen, stießen auf die gleiche Einschränkung. In den KI-generierten Videos ziehen die Männer meist ihre Hemden aus, aber darüber hinaus gibt es nichts. Und wenn es noch mehr gibt, ist es meist so peinlich, dass wir befürchten müssten, die Nutzer würden an der fremdbestimmten Peinlichkeit sterben. Ein Spicy-Video von Errol Musk, Elons Vater, ergab dasselbe Ergebnis. Er zog einfach sein Hemd aus.
Als wir einen typischen Mann erstellten, um zu sehen, ob der Spicy-Modus mit seinen sexuellen Inhalten lockerer umgehen würde, da es sich nicht um eine bekannte Persönlichkeit des öffentlichen Lebens handelte, entstand dennoch nur ein bizarres, peinliches Video von einem Mann, der an seiner Hose zupfte. Die Hose, so sollte man wissen, scheint eine Kombination aus Shorts für das eine Bein und langen Jeans für das andere zu sein, bevor sie sich in reine Shorts verwandelt. Der Ton für jedes Video wurde ebenfalls automatisch ohne weitere Anweisungen generiert.
Der Versuch, dasselbe mit einer gewöhnlichen Frau zu tun, ergab viel freizügigere Bilder einer Frau im Badeanzug, die das Oberteil herunterzieht und so ihre nackten Brüste zeigt.
Die meisten gängigen KI-Videogeneratoren, wie Sora von OpenAI und Veo von Google, verfügen über Schutzmechanismen gegen die Erstellung von Rachepornos und Prominentenbildern. Und xAI scheint dies in gewisser Weise auch zu tun, zumindest für Männer. Die meisten Menschen würden jedoch wahrscheinlich Einwände dagegen erheben, wenn ihr Bild zur Erstellung eines KI-Avatars in verschiedenen Nacktheitszuständen verwendet würde. Gizmodo hat Musk über xAI kontaktiert, um nach Sicherheitsvorkehrungen zu fragen und ob es für Nutzer akzeptabel ist, Oben-ohne-Videos von Prominenten zu erstellen. Wir haben keine Antwort erhalten.
Eines der auffälligsten Merkmale von Groks KI-Bildgenerator ist seine oft miserable Leistung bei der Erstellung überzeugender Promi-Fälschungen. Die folgenden Bilder wurden beispielsweise generiert, als nach Vizepräsident JD Vance und Schauspielerin Sydney Sweeney gefragt wurde. Und sofern wir nicht völlig vergessen haben, wie diese beiden Personen aussehen, ist das nicht einmal annähernd der Fall. Das könnte sich als Musks Rettung erweisen, da ein solches Tool zwangsläufig Klagen nach sich zieht.

Es gab noch weitere Pannen, beispielsweise als wir ein KI-generiertes Bild von Präsident Harry Truman erstellten, das ihm kaum ähnelte und dessen Brustwarzen sich scheinbar über seinem Oberhemd befanden. Truman zog im Spicy-Modus sein Hemd aus und enthüllte seine nackte Brust mit identischen Brustwarzen.
Als Gizmodo Bilder mit dem Stichwort „Gizmodo-Autor Matt Novak“ erstellte, ähnelte das Ergebnis dem, was wir bei Videos von Elon Musk und gewöhnlichen Männern gesehen haben. Die Figur (die, wie wir anmerken sollten, in viel besserer Form ist als der echte Matt Novak) zog mit einem einfachen Klick auf den Spicy-Button ihr Hemd aus.
Wie The Verge anmerkt , gibt es ein Fenster zur Altersüberprüfung, wenn ein Nutzer zum ersten Mal versucht, mit Grok Imagine ein Video zu erstellen. Das Unternehmen scheint jedoch keine Überprüfung des tatsächlichen Geburtsjahrs eines Nutzers durchzuführen. Glücklicherweise hat Gizmodos Generierung einer Cartoon-Mickey-Maus im Spicy-Modus nichts Skandalöses ergeben, sondern nur die animierte Figur, die harmlos herumspringt. Ein KI-Bild von Batman ergab ein „scharfes“ Ergebnis, ähnlich wie bei anderen männlichen Figuren, bei dem er lediglich sein Oberteil auszog.
Gizmodo hat nicht versucht, Bilder von Kindern zu erstellen. The Verge hat dies jedoch im Spicy-Modus versucht und berichtet, dass dabei nichts Unangemessenes gerendert wurde. Der „Spicy“-Modus war jedoch weiterhin als Option aufgeführt. „Man kann ihn immer noch auswählen, aber in all meinen Tests hat er nur generische Bewegungen hinzugefügt“, stellt The Verge fest. Laut der Washington Post hat Elon Musk 2023 einen Account auf X wiederhergestellt, der Material mit sexuellem Kindesmissbrauch veröffentlicht hatte.
Es ist vielleicht nicht überraschend, dass der neue NSFW-Video-Ersteller von Elon Musk unterschiedliche Maßstäbe für Männer und Frauen hat. Der Milliardär retweetete kürzlich einen rechtsextremen Politiker, der behauptete, Frauen seien „anti-weiß“, weil sie „ schwach “ seien. Der Tesla-Chef, der 2024 andeutete , Taylor Swift schwängern zu wollen, ist nicht gerade als Verfechter der Frauenrechte bekannt.
Gizmodo hat sich für das 30 Dollar pro Monat teure SuperGrok-Abo angemeldet und konnte es nur etwa 1,5 Stunden lang testen, bevor uns mitgeteilt wurde, dass wir unser Limit für die Bilderstellung erreicht hätten. Kurioserweise können Benutzer nach der Warnung immer noch ein einzelnes Standbild für eine Eingabeaufforderung erstellen und mit diesem einzelnen Bild NSFW-Videos erstellen, allerdings sind die Möglichkeiten deutlich eingeschränkter als zuvor.
Uns wurde angeboten, für 300 Dollar pro Monat auf SuperGrok Heavy zu upgraden, wenn wir das Tool mit all seinen Funktionen weiterhin nutzen wollten. Da wir aber keine weiteren beschissenen Bilder von nackten Prominenten brauchten, um diesen Artikel zu schreiben, lehnten wir ab. Wir haben leider die Antworten bekommen, nach denen wir gesucht haben.
gizmodo